月之暗面 Kimi 開放平臺將啓動 Context Caching上下文緩存 內測
Kimi 開放平臺近日宣佈,備受期待的Context Caching功能即將啓動內測。這一創新功能將支持長文本大模型,並通過高效的上下文緩存機制,爲用戶提供前所未有的體驗。據Kimi開放平臺官方介紹,Context Caching是一項前沿技術,旨在通過緩存重複的Tokens內容,大幅度降低用戶在請求相同內容時的成本。其工作原理在於智能識別並存儲已處理的文本片段,當用戶再次請求時,系統能夠迅速從緩存中調取,從而極大提升了API的接口響應速度。